az ml model
Uwaga
Ta dokumentacja jest częścią rozszerzenia azure-cli-ml dla interfejsu wiersza polecenia platformy Azure (wersja 2.0.28 lub nowsza). Rozszerzenie zostanie automatycznie zainstalowane przy pierwszym uruchomieniu polecenia az ml model . Dowiedz się więcej o rozszerzeniach.
Zarządzanie modelami uczenia maszynowego.
Polecenia
Nazwa | Opis | Typ | Stan |
---|---|---|---|
az ml model delete |
Usuń model z obszaru roboczego. |
Numer wewnętrzny | Ogólna dostępność |
az ml model deploy |
Wdrażanie modeli z obszaru roboczego. |
Numer wewnętrzny | Ogólna dostępność |
az ml model download |
Pobierz model z obszaru roboczego. |
Numer wewnętrzny | Ogólna dostępność |
az ml model list |
Wyświetlanie listy modeli w obszarze roboczym. |
Numer wewnętrzny | Ogólna dostępność |
az ml model package |
Spakuj model w obszarze roboczym. |
Numer wewnętrzny | Ogólna dostępność |
az ml model profile |
Modele profilów w obszarze roboczym. |
Numer wewnętrzny | Ogólna dostępność |
az ml model register |
Rejestrowanie modelu w obszarze roboczym. |
Numer wewnętrzny | Ogólna dostępność |
az ml model show |
Pokaż model w obszarze roboczym. |
Numer wewnętrzny | Ogólna dostępność |
az ml model update |
Aktualizowanie modelu w obszarze roboczym. |
Numer wewnętrzny | Ogólna dostępność |
az ml model delete
Usuń model z obszaru roboczego.
az ml model delete --model-id
[--path]
[--resource-group]
[--subscription-id]
[--workspace-name]
[-v]
Parametry wymagane
Identyfikator modelu do usunięcia.
Parametry opcjonalne
Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Określa identyfikator subskrypcji.
Nazwa obszaru roboczego.
Flaga szczegółowości.
Parametry globalne
Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i zakończ pracę.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.
Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID
.
Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.
az ml model deploy
Wdrażanie modeli z obszaru roboczego.
az ml model deploy --name
[--ae]
[--ai]
[--ar]
[--as]
[--at]
[--autoscale-max-replicas]
[--autoscale-min-replicas]
[--base-image]
[--base-image-registry]
[--cc]
[--ccl]
[--cf]
[--collect-model-data]
[--compute-target]
[--compute-type]
[--cuda-version]
[--dc]
[--description]
[--dn]
[--ds]
[--ed]
[--eg]
[--entry-script]
[--environment-name]
[--environment-version]
[--failure-threshold]
[--gb]
[--gbl]
[--gc]
[--ic]
[--id]
[--key-name]
[--key-version]
[--kp]
[--ks]
[--lo]
[--max-request-wait-time]
[--model]
[--model-metadata-file]
[--namespace]
[--no-wait]
[--nr]
[--overwrite]
[--path]
[--period-seconds]
[--pi]
[--po]
[--property]
[--replica-max-concurrent-requests]
[--resource-group]
[--rt]
[--sc]
[--scoring-timeout-ms]
[--sd]
[--se]
[--sk]
[--sp]
[--st]
[--subnet-name]
[--subscription-id]
[--tag]
[--timeout-seconds]
[--token-auth-enabled]
[--tp]
[--vault-base-url]
[--version-name]
[--vnet-name]
[--workspace-name]
[-v]
Parametry wymagane
Nazwa wdrożonej usługi.
Parametry opcjonalne
Określa, czy włączyć uwierzytelnianie klucza dla tej usługi sieci Web. Wartość domyślna to False.
Określa, czy włączyć usługę AppInsights dla tej usługi sieci Web. Wartość domyślna to False.
Jak często autoskalator powinien próbować skalować tę usługę sieci Web. Wartość domyślna to 1.
Określa, czy włączyć skalowanie automatyczne dla tej usługi sieci Web. Wartość domyślna to True, jeśli num_replicas to Brak.
Wykorzystanie docelowe (w procentach na 100) autoskalator powinien podjąć próbę zachowania dla tej usługi sieci Web. Wartość domyślna to 70.
Maksymalna liczba kontenerów do użycia podczas skalowania automatycznego tej usługi sieci Web. Wartość domyślna to 10.
Minimalna liczba kontenerów do użycia podczas skalowania automatycznego tej usługi sieci Web. Wartość domyślna to 1.
Obraz niestandardowy, który ma być używany jako obraz podstawowy. Jeśli nie podano obrazu podstawowego, obraz podstawowy będzie używany na podstawie danego parametru środowiska uruchomieniowego.
Rejestr obrazów zawierający obraz podstawowy.
Liczba rdzeni procesora cpu do przydzielenia dla tej usługi sieci Web. Może to być liczba dziesiętna. Wartość domyślna to 0.1.
Maksymalna liczba rdzeni procesora CPU, z których może korzystać ta usługa sieci Web. Może to być liczba dziesiętna.
Ścieżka do pliku lokalnego zawierającego definicję środowiska conda do użycia dla obrazu.
Określa, czy włączyć zbieranie danych modelu dla tej usługi sieci Web. Wartość domyślna to False.
Nazwa docelowego obiektu obliczeniowego. Dotyczy tylko wdrażania w usłudze AKS.
Typ obliczeniowy usługi do wdrożenia.
Wersja interfejsu CUDA do zainstalowania dla obrazów, które wymagają obsługi procesora GPU. Obraz procesora GPU musi być używany w usługach platformy Microsoft Azure, takich jak Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines i Azure Kubernetes Service. Obsługiwane wersje to 9.0, 9.1 i 10.0. Jeśli ustawiono wartość "enable_gpu", wartość domyślna to "9.1".
Ścieżka do pliku JSON lub YAML zawierającego metadane wdrożenia.
Opis wdrożonej usługi.
Nazwa DNS dla tej usługi sieci Web.
Ścieżka do pliku lokalnego zawierającego dodatkowe kroki platformy Docker do uruchomienia podczas konfigurowania obrazu.
Katalog dla środowiska usługi Azure Machine Learning na potrzeby wdrożenia. Jest to ta sama ścieżka katalogu, co w poleceniu "az ml environment scaffold".
Czy włączyć obsługę procesora GPU na obrazie. Obraz procesora GPU musi być używany w usługach platformy Microsoft Azure, takich jak Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines i Azure Kubernetes Service. Wartość domyślna to False.
Ścieżka do pliku lokalnego zawierającego kod do uruchomienia dla usługi (ścieżka względna z source_directory, jeśli został podany).
Nazwa środowiska usługi Azure Machine Learning na potrzeby wdrożenia.
Wersja istniejącego środowiska usługi Azure Machine Learning na potrzeby wdrożenia.
Po uruchomieniu zasobnika i niepowodzeniu sondy aktualności platforma Kubernetes spróbuje użyć wartości progowej --failure-threshold przed rezygnacją. Wartość domyślna to 3. Wartość minimalna to 1.
Ilość pamięci (w GB) do przydzielenia dla tej usługi sieci Web. Może to być liczba dziesiętna.
Maksymalna ilość pamięci (w GB) dozwolonej przez tę usługę sieci Web. Może to być liczba dziesiętna.
Liczba rdzeni procesora GPU do przydzielenia dla tej usługi sieci Web. Wartość domyślna to 1.
Ścieżka do pliku JSON lub YAML zawierającego konfigurację wnioskowania.
Liczba sekund po uruchomieniu kontenera przed zainicjowanym sondami aktualności. Wartość domyślna to 310.
Nazwa klucza dla właściwości szyfrowania w kluczach zarządzanych przez klienta (CMK) dla usługi ACI.
Wersja klucza dla właściwości szyfrowania w kluczach zarządzanych przez klienta (CMK) dla usługi ACI.
Podstawowy klucz uwierzytelniania używany dla tej usługi sieci Web.
Pomocniczy klucz uwierzytelniania do użycia dla tej usługi sieci Web.
Region świadczenia usługi Azure do wdrożenia tej usługi internetowej. Jeśli nie określono lokalizacji obszaru roboczego, zostanie użyta. Więcej szczegółów na temat dostępnych regionów można znaleźć tutaj: https://azure.microsoft.com/en-us/global-infrastructure/services/?regions=all& products=container-instances.
Maksymalny czas, przez jaki żądanie pozostanie w kolejce (w milisekundach) przed zwróceniem błędu 503. Wartość domyślna to 500.
Identyfikator modelu do wdrożenia. Można określić wiele modeli z dodatkowymi argumentami -m. Najpierw należy zarejestrować modele.
Ścieżka do pliku JSON zawierającego metadane rejestracji modelu. Wiele modeli można udostępnić przy użyciu wielu parametrów -f.
Przestrzeń nazw kubernetes, w której ma zostać wdrożona usługa: maksymalnie 63 małe litery alfanumeryczne ('a'-'z', '0'-'9') i łącznik ('-'). Pierwsze i ostatnie znaki nie mogą być łącznikami. Dotyczy tylko wdrażania w usłudze AKS.
Flaga, aby nie czekać na wywołania asynchroniczne.
Liczba kontenerów do przydzielenia dla tej usługi sieci Web. Nie, jeśli ten parametr nie jest ustawiony, autoskalator jest domyślnie włączony.
Zastąp istniejącą usługę, jeśli wystąpi konflikt nazw.
Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.
Jak często (w sekundach) wykonać sondę liveness. Wartość domyślna to 10 sekund. Wartość minimalna to 1.
Ścieżka do pliku JSON zawierającego wyniki profilowania.
Port lokalny, na którym można uwidocznić punkt końcowy HTTP usługi.
Właściwość klucz/wartość do dodania (e.g. key=value). Można określić wiele właściwości z wieloma opcjami --property.
Liczba maksymalnej liczby współbieżnych żądań na węzeł w celu umożliwienia tej usługi sieci Web. Wartość domyślna to 1.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Którego środowiska uruchomieniowego należy użyć na potrzeby obrazu. Bieżące obsługiwane środowiska uruchomieniowe to "spark-py" i "python"spark-py|python|python-slim.
Nazwa cname dla , jeśli protokół SSL jest włączony.
Limit czasu wymuszany dla wywołań oceniania do tej usługi sieci Web. Wartość domyślna to 60000.
Ścieżka do folderów zawierających wszystkie pliki do utworzenia obrazu.
Określa, czy włączyć protokół SSL dla tej usługi sieci Web. Wartość domyślna to False.
Plik klucza wymagany w przypadku włączenia protokołu SSL.
Plik certyfikatu wymagany w przypadku włączenia protokołu SSL.
Minimalna liczba kolejnych sukcesów sondy liveness, która ma zostać uznana za pomyślną po niepowieść. Wartość domyślna to 1. Wartość minimalna to 1.
Nazwa podsieci wewnątrz sieci wirtualnej.
Określa identyfikator subskrypcji.
Tag klucz/wartość do dodania (e.g. key=value). Można określić wiele tagów z wieloma opcjami --tag.
Liczba sekund, po których upłynął limit czasu sondy liveness. Wartość domyślna to 2 sekundy. Wartość minimalna to 1.
Określa, czy włączyć uwierzytelnianie tokenu dla tej usługi sieci Web. Ignorowane, jeśli nie jest wdrażane w usłudze AKS. Wartość domyślna to False.
Ilość ruchu, który pobiera wersja w punkcie końcowym. Może to być liczba dziesiętna. Wartość domyślna to 0.
Podstawowy adres URL magazynu dla właściwości szyfrowania w kluczach zarządzanych przez klienta (CMK) dla usługi ACI.
Nazwa wersji w punkcie końcowym. Wartość domyślna to nazwa punktu końcowego dla pierwszej wersji.
Nazwa sieci wirtualnej.
Nazwa obszaru roboczego.
Flaga szczegółowości.
Parametry globalne
Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i zakończ pracę.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.
Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID
.
Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.
az ml model download
Pobierz model z obszaru roboczego.
az ml model download --model-id
--target-dir
[--overwrite]
[--path]
[--resource-group]
[--subscription-id]
[--workspace-name]
[-v]
Parametry wymagane
Identyfikator modelu.
Katalog docelowy do pobrania pliku modelu.
Parametry opcjonalne
Zastąp, jeśli ten sam plik o tej samej nazwie istnieje w katalogu docelowym.
Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Określa identyfikator subskrypcji.
Nazwa obszaru roboczego zawierającego model do pokazania.
Flaga szczegółowości.
Parametry globalne
Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i zakończ pracę.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.
Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID
.
Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.
az ml model list
Wyświetlanie listy modeli w obszarze roboczym.
az ml model list [--dataset-id]
[--latest]
[--model-name]
[--path]
[--property]
[--resource-group]
[--run-id]
[--subscription-id]
[--tag]
[--workspace-name]
[-v]
Parametry opcjonalne
Jeśli zostanie podany, pokaże tylko modele z określonym identyfikatorem zestawu danych.
Jeśli zostanie podana, zwróci tylko modele z najnowszą wersją.
Opcjonalna nazwa modelu do filtrowania listy według.
Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.
Właściwość klucz/wartość do dodania (e.g. key=value). Można określić wiele właściwości z wieloma opcjami --property.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Jeśli zostanie podany, pokaże tylko modele z określonym identyfikatorem przebiegu.
Określa identyfikator subskrypcji.
Tag klucz/wartość do dodania (e.g. key=value). Można określić wiele tagów z wieloma opcjami --tag.
Nazwa obszaru roboczego zawierającego modele do wyświetlenia.
Flaga szczegółowości.
Parametry globalne
Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i zakończ pracę.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.
Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID
.
Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.
az ml model package
Spakuj model w obszarze roboczym.
az ml model package [--cf]
[--ed]
[--entry-script]
[--environment-name]
[--environment-version]
[--ic]
[--il]
[--image-name]
[--model]
[--model-metadata-file]
[--no-wait]
[--output-path]
[--path]
[--resource-group]
[--rt]
[--sd]
[--subscription-id]
[--workspace-name]
[-v]
Parametry opcjonalne
Ścieżka do pliku lokalnego zawierającego definicję środowiska conda do użycia dla pakietu.
Katalog dla środowiska Azure Machine Learning Environment do tworzenia pakietów. Jest to ta sama ścieżka katalogu, co w poleceniu "az ml environment scaffold".
Ścieżka do pliku lokalnego zawierającego kod do uruchomienia dla usługi (ścieżka względna z source_directory, jeśli został podany).
Nazwa środowiska Usługi Azure Machine Learning do tworzenia pakietów.
Wersja istniejącego środowiska usługi Azure Machine Learning na potrzeby tworzenia pakietów.
Ścieżka do pliku JSON lub YAML zawierającego konfigurację wnioskowania.
Etykieta, aby nadać utworzony obraz pakietu.
Nazwa, aby nadać skompilowany obraz pakietu.
Identyfikator modelu do spakowania. Można określić wiele modeli z dodatkowymi argumentami -m. Najpierw należy zarejestrować modele.
Ścieżka do pliku JSON zawierającego metadane rejestracji modelu. Wiele modeli można udostępnić przy użyciu wielu parametrów -f.
Flaga, aby nie czekać na wywołania asynchroniczne.
Ścieżka wyjściowa kontekstu platformy Docker. Jeśli zostanie przekazana ścieżka wyjściowa, zamiast tworzyć obraz w usłudze ACR obszaru roboczego, plik dockerfile i wymagany kontekst kompilacji zostaną zapisane w tej ścieżce.
Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Którego środowiska uruchomieniowego należy użyć dla pakietu. Bieżące obsługiwane środowiska uruchomieniowe to "spark-py" i "python"spark-py|python|python-slim.
Ścieżka do folderów zawierających wszystkie pliki do utworzenia obrazu.
Określa identyfikator subskrypcji.
Nazwa obszaru roboczego.
Flaga szczegółowości.
Parametry globalne
Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i zakończ pracę.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.
Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID
.
Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.
az ml model profile
Modele profilów w obszarze roboczym.
az ml model profile --name
[--base-image]
[--base-image-registry]
[--cc]
[--cf]
[--description]
[--ed]
[--entry-script]
[--environment-name]
[--environment-version]
[--gb]
[--ic]
[--idi]
[--model]
[--model-metadata-file]
[--output-metadata-file]
[--resource-group]
[--sd]
[--subscription-id]
[--workspace-name]
[-v]
Parametry wymagane
Nazwa profilu modelu.
Parametry opcjonalne
Obraz niestandardowy, który ma być używany jako obraz podstawowy. Jeśli nie podano obrazu podstawowego, obraz podstawowy będzie używany na podstawie danego parametru środowiska uruchomieniowego.
Rejestr obrazów zawierający obraz podstawowy.
Podwójna wartość maksymalnego użycia procesora CPU podczas profilowania.
Ścieżka do pliku lokalnego zawierającego definicję środowiska conda do użycia dla obrazu.
Opis profilu modelu.
Katalog dla środowiska usługi Azure Machine Learning na potrzeby wdrożenia. Jest to ta sama ścieżka katalogu, co w poleceniu "az ml environment scaffold".
Ścieżka do pliku lokalnego zawierającego kod do uruchomienia dla usługi (ścieżka względna z source_directory, jeśli został podany).
Nazwa środowiska usługi Azure Machine Learning na potrzeby wdrożenia.
Wersja istniejącego środowiska usługi Azure Machine Learning na potrzeby wdrożenia.
Podwójna wartość maksymalnej pamięci do użycia podczas profilowania.
Ścieżka do pliku JSON lub YAML zawierającego konfigurację wnioskowania.
Identyfikator tabelarycznego zestawu danych, który ma być używany jako dane wejściowe dla profilu.
Identyfikator modelu do wdrożenia. Można określić wiele modeli z dodatkowymi argumentami -m. Najpierw należy zarejestrować modele.
Ścieżka do pliku JSON zawierającego metadane rejestracji modelu. Wiele modeli można udostępnić przy użyciu wielu parametrów -f.
Ścieżka do pliku JSON, w którym będą zapisywane metadane wyników profilu. Używany jako dane wejściowe na potrzeby wdrażania modelu.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Ścieżka do folderów zawierających wszystkie pliki do utworzenia obrazu.
Określa identyfikator subskrypcji.
Nazwa obszaru roboczego.
Flaga szczegółowości.
Parametry globalne
Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i zakończ pracę.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.
Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID
.
Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.
az ml model register
Rejestrowanie modelu w obszarze roboczym.
az ml model register --name
[--asset-path]
[--cc]
[--description]
[--experiment-name]
[--gb]
[--gc]
[--model-framework]
[--model-framework-version]
[--model-path]
[--output-metadata-file]
[--path]
[--property]
[--resource-group]
[--run-id]
[--run-metadata-file]
[--sample-input-dataset-id]
[--sample-output-dataset-id]
[--subscription-id]
[--tag]
[--workspace-name]
[-v]
Parametry wymagane
Nazwa modelu do zarejestrowania.
Parametry opcjonalne
Ścieżka chmury, w której jest uruchamiany experiement, przechowuje plik modelu.
Domyślna liczba rdzeni procesora CPU do przydzielenia dla tego modelu. Może to być liczba dziesiętna.
Opis modelu.
Nazwa eksperymentu.
Domyślna ilość pamięci (w GB) do przydzielenia dla tego modelu. Może to być liczba dziesiętna.
Domyślna liczba procesorów GPU do przydzielenia dla tego modelu.
Struktura modelu do zarejestrowania. Obecnie obsługiwane platformy: TensorFlow, ScikitLearn, Onnx, Custom, Multi.
Wersja struktury modelu do zarejestrowania (np. 1.0.0, 2.4.1).
Pełna ścieżka pliku modelu do zarejestrowania.
Ścieżka do pliku JSON, w którym będą zapisywane metadane rejestracji modelu. Używany jako dane wejściowe na potrzeby wdrażania modelu.
Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.
Właściwość klucz/wartość do dodania (e.g. key=value). Można określić wiele właściwości z wieloma opcjami --property.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Identyfikator przebiegu eksperymentu, z którego jest rejestrowany model.
Ścieżka do pliku JSON zawierającego metadane przebiegu experiement.
Identyfikator przykładowego wejściowego zestawu danych.
Identyfikator przykładowego wyjściowego zestawu danych.
Określa identyfikator subskrypcji.
Tag klucz/wartość do dodania (e.g. key=value). Można określić wiele tagów z wieloma opcjami --tag.
Nazwa obszaru roboczego do zarejestrowania tego modelu.
Flaga szczegółowości.
Parametry globalne
Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i zakończ pracę.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.
Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID
.
Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.
az ml model show
Pokaż model w obszarze roboczym.
az ml model show [--model-id]
[--model-name]
[--path]
[--resource-group]
[--run-id]
[--subscription-id]
[--version]
[--workspace-name]
[-v]
Parametry opcjonalne
Identyfikator modelu do pokazania.
Nazwa modelu do pokazania.
Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Jeśli zostanie podany, pokaże tylko modele z określonym identyfikatorem przebiegu.
Określa identyfikator subskrypcji.
Jeśli zostanie podana, pokaże tylko modele o określonej nazwie i wersji.
Nazwa obszaru roboczego zawierającego model do pokazania.
Flaga szczegółowości.
Parametry globalne
Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i zakończ pracę.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.
Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID
.
Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.
az ml model update
Aktualizowanie modelu w obszarze roboczym.
az ml model update --model-id
[--add-property]
[--add-tag]
[--cc]
[--description]
[--gb]
[--gc]
[--path]
[--remove-tag]
[--resource-group]
[--sample-input-dataset-id]
[--sample-output-dataset-id]
[--subscription-id]
[--workspace-name]
[-v]
Parametry wymagane
Identyfikator modelu.
Parametry opcjonalne
Właściwość klucz/wartość do dodania (e.g. key=value). Można określić wiele właściwości z wieloma opcjami --add-property.
Tag klucz/wartość do dodania (e.g. key=value). Można określić wiele tagów z wieloma opcjami --add-tag.
Domyślna liczba rdzeni procesora CPU do przydzielenia dla tego modelu. Może to być liczba dziesiętna.
Opis aktualizowania modelu za pomocą polecenia . Zastąpi bieżący opis.
Domyślna ilość pamięci (w GB) do przydzielenia dla tego modelu. Może to być liczba dziesiętna.
Domyślna liczba procesorów GPU do przydzielenia dla tego modelu.
Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.
Klucz tagu do usunięcia. Można określić wiele tagów z wieloma opcjami --remove-tag.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Identyfikator przykładowego wejściowego zestawu danych.
Identyfikator przykładowego wyjściowego zestawu danych.
Określa identyfikator subskrypcji.
Nazwa obszaru roboczego.
Flaga szczegółowości.
Parametry globalne
Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i zakończ pracę.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.
Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID
.
Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.